ML-李宏毅-Lecture 4-Sequence as input

李宏毅《机器学习2022》课程学习笔记。

Preparation

【機器學習 2021】自注意力機制 -Self-attention- -上-

png

​ 在之前的问题(预测观看人数、图像分类)中,输入的是一个向量 vector,输出的是一个数值 Scalar 或类别 Class。

​ 有些问题输入的是一个向量集 vectors(向量集中的向量长度可能不同)。

png

​ 比如一串单词序列 {this,is,a,cat}\{this,is,a,cat\},可以使用独热编码来表示个单词,但此法无法得出各个单词之间的关系。

​ 使用 Word Embedding 将词性相近的单词用一个向量表示。

png

​ 取一段语音信号作为窗口,把其中的信息描述为一个向量(帧),滑动这个窗口就得到这段语音的向量集。

png

​ 社交网络的每个节点就是一个人,节点之间的关系用线连接。每一个人就是一个向量,整个社交网络就是一个向量集。

png

​ 分子上的每个原子就是一个向量(每个元素可用 One-hot 编码表示),分子就是一个向量集。

png

​ 向量集中一个向量对应一个标签输出的情景:

  • POS tagging 单词词性判断,如 I saw a saw,两个 saw 词性不同。
  • 作业 2,给一段语音,判断说话的内容。
  • 在社交网络中,向某个用户推荐商品(可能会买或者不买)。
png

整个向量集只对应一个标签的情景:

  • 给一段句子,判断这个句子的语气是积极还是消极的。
  • 作业 4,给一段语音,判断说话者是谁。
  • 给一个分子结构图,判断这个分子组成的物质是否亲水。
png

由模型自行决定输出标签的数量:seq2seq,作业 5,机器翻译。

本节课只考虑第一种情景:向量集中一个向量对应一个标签。

Sequence Labeling

png

​ 利用全连接网络,输入一个句子,输出对应单词数目的标签。当一个句子里出现两个相同的单词,并且它们的词性不同(例如:I saw a saw. 我看见一把锯子),这个时候就需要考虑上下文:利用滑动窗口,每个向量查看窗口中相邻的其他向量的性质。

​ 但是这种方法不能解决整条语句的分析问题(固定的滑动窗口难以应用在长度不等的语句上),即语义分析。这就引出了 Self-attention 技术。

png

​ 输入整个语句的向量到 self-attention 中,输出对应个数的向量,再将其结果输入到全连接网络,最后输出标签。以上过程可多次重复。

​ Transformer 起源于 2017 年的一篇 google brain 的又一篇神文《Attention is all you need》,至此由引领了在 NLP 和 CV 了又一研究热点。

​ 在 Transformer 中一个非常关键的贡献就是 self-attention。就是利用输入样本自身的关系构建注意力模型。

png

​ Self-attention 层的上一层可以是输入层,也可以是隐藏层。每个输出 bb 都与所有输入 aa 相关。

png

​ Self-attention 层的作用就是找到向量集中各个向量中的关联性 α\alpha

png

计算关联性 α\alpha 的方法:

  • Dot-product 中使用了 Transformer 的方法。把输入的向量分别乘以不同的矩阵 WqW^qWkW^k,最后得到关联性 α=qk\alpha=\mathbf{q}\cdot\mathbf{k}
  • Additive

Self-attention 中又引入了三个非常重要的元素:QueryKeyValue

​ 假设XRn×d\mathbf{X}\in\mathbb{R}^{\mathbf{n}\times \mathbf{d}} 是一个输入样本序列的特征,其中 n\mathbf{n} 是输入样本个数(序列长度),d\mathbf{d} 是单个样本维度。

  • Query:Q=XWQ\mathbf{Q}=\mathbf{X}\cdot\mathbf{W^Q},其中 WQRd×dq\mathbf{W^Q}\in\mathbb{R}^{\mathbf{d\times d_q}}
  • Key:K=XWK\mathbf{K}=\mathbf{X}\cdot\mathbf{W^K},其中 WKRd×dK\mathbf{W^K}\in\mathbb{R}^{\mathbf{d\times d_K}}
  • Value:V=XWV\mathbf{V}=\mathbf{X}\cdot\mathbf{W^V},其中 WKRd×dV\mathbf{W^K}\in\mathbb{R}^{\mathbf{d\times d_V}}

X\mathbf{X} 分别乘上某个矩阵得到 Q,K,V\mathbf{Q, K, V}

png

​ 如求向量 a1\mathbf{a^1} 与向量 aia^{i} 的关联性 α1,i\alpha'_{1,i}。根据 q1,k1\mathbf{q^1,k^1} 求得某个向量与所有向量关联性 α1,1\alpha_{1,1} 后,再用 softmax 函数(Normalization 操作,也可以是其他激活函数,如 ReLU):

α1,i=exp(α1,i)/jexp(α1,j)\alpha'_{1,i}=\exp(\alpha_{1,i})/\sum_j\exp(\alpha_{1,j})

png

​ 将所得的 α1,1\alpha'_{1,1} 与 由向量本身计算得到的 v1\mathbf{v^1} 相乘求得 b1=ia1,ivi\mathbf{b^1}=\sum_ia'_{1,i}\mathbf{v^i}

​ 根据分数(关联性)抽取重要信息。谁的分数(Value)越大,谁就更影响结果。

【機器學習 2021】自注意力機制 -Self-attention- -下-

Self-attention

png

​ Self-attention 层将输入 aa 转换为输出 bb,这个过程是可以并行计算的。

png

与求 b1=ia1,ivi\mathbf{b^1}=\sum_ia'_{1,i}\mathbf{v^i} 相同的方法求得 b2=ia2,ivi\mathbf{b^2}=\sum_ia'_{2,i}\mathbf{v^i}

png

​ 由于用于得到 q,k,v\mathbf{q,k,v} 所乘的矩阵 Wq,Wk,WvW^q,W^k,W^v 都相同,所以可以将所有 a\mathbf{a} 合并成一个矩阵 II,通过一次矩阵运算得到所有的 q,k,v\mathbf{q,k,v},分别合并称为 Q,K,VQ,K,V

png

​ 通过线性代数知识,A=KTQA=K^TQA=softmax(A)A'=softmax(A)

png

​ 通过线性代数知识,O=VAO=VA'OO 就是 self-attention 层的输出。

png

Wq,Wk,WvW^q,W^k,W^v 这些参数的值要通过学习得到。

上述过程可总结为:

  • 输入矩阵 II 分别乘以三个 WW 得到三个矩阵 Q,K,VQ,K,V
  • 使 A=QKTA=QK^T,经过处理的到注意力矩阵 A=softmax(QKTdk)A'=softmax\left(\frac{QK^T}{\sqrt{d_k}}\right)
  • 输出 O=AVO=A'V,即 Attention(Q,K,V)=softmax(QKTdk)VAttention(Q,K,V)=softmax\left(\frac{QK^T}{\sqrt{d_k}}\right)V,其中,dk\sqrt{d_k} 为向量的长度。

Multi-head Self-attention

png

​ Multi-head Self-attention 是 Self-attention 的变种。考虑不同类型的相关性。计算完 q,k,v\mathbf{q,k,v} 后,再乘上 head 数的矩阵,得到更多分支。

png

​ 这样得到的输出会有多个向量。最后再乘一个 WOW^O 矩阵得到最终的输出 b\mathbf b

Positional Encoding

png

​ Self-attention 机制没有考虑向量的位置信息。解决办法是在输入向量 ai\mathbf{a^i} 中额外添加位置信息 ei\mathbf{e^i}。位置信息 ei\mathbf{e^i} 的表示形式可以是:

  • 人为设定
  • 从数据中学习
png

​ 论文[2003.09229] Learning to Encode Position for Transformer with Continuous Dynamical Model (arxiv.org) 阐述了各种模型得到的位置信息的表现形式。

Application

png

使用 Self-attention 机制的应用:

​ Widely used in Natural Langue Processing(NLP)!

png

​ Self-attention 在语音识别中的应用,一段语音是一个非常长的序列,计算量/存储量会非常大。将向量只考虑其周围的向量(Truncated Self-attention)。

png

在图像处理中的应用,把图像当作一个向量集来看待。每个像素点都是一个三维的向量(RGB)。

png

​ 使用 Self-attention 机制用在图像处理方面的例子:

Self-attention v.s. CNN

png

CNN 可以看作是简化版的 self-attention,self-attention 通过学习得到相应的 receptive field。

png png

​ 由于 self-attention 可以视作是 CNN 的超集,因此它的结构比 CNN 更复杂。更复杂的神经网络需要数量更加庞大的数据库才能得到更好的效果(在较小的数据库中容易过拟合)。

png

​ Self-attention 一般比 RNN 训练速度更快(便于获取周边向量且支持并行计算),目前很多 RNN 架构都换成了 self-attention 架构.

png png

​ 如果把 self-attention 机制放在图里,就变成了 GNN 的一种。

png png

Class Material

Extra Material

ML Lecture 21-1 Recurrent Neural Network -Part I-

png

​ RNN 应用的一个举例:Slot Filling 槽填充。智能订票系统。用户对机器输入一段话“I would like to arrive Taipei on Novmber 2nd.”,机器将这段话提取出关键词填入 Slot 中。

png

​ 如何使用一个向量表示一个单词?独热编码。

png
  • 独热编码后加一个维度用于表示词汇表中没有的词汇。
  • 将单词的各个部分是否出现显示在向量中。
png

尝试将 slot filling 应用于 Feedforward network 中:

  • 输入:一个单词(每个单词都用一个向量来表示)
  • 输出这个单词最有可能出现在哪个 slots 中。
png

​ 这样训练出来的结构不能考虑上下文对单词含义造成的影响。只考虑单词“Taipei”不能确定用户需要的是出发地还是目的地。

因此神经网络需要记忆。

Recurrent Neural Network (RNN)

png

​ 每次输出的结果都会存在内存中。内存中的值也可被视作另一个输入。

png

​ 假设这个模型所有 weight 都是 1,没有 bias,所有的激活函数都是线性函数。则对于输入序列 [11][11][22]\begin{bmatrix}1\\1\end{bmatrix}\begin{bmatrix}1\\1\end{bmatrix}\begin{bmatrix}2\\2\end{bmatrix},对应的输出序列为 [44][1212][3232]\begin{bmatrix}4\\4\end{bmatrix}\begin{bmatrix}12\\12\end{bmatrix}\begin{bmatrix}32\\32\end{bmatrix}

​ 改变序列顺序也会改变输出序列。

png

​ 由于 memory 中的值可能不同,不同时期相同的输入可能会得到不同的输出。

png

​ 这样的结构可以有很多层。

png

​ 刚刚的结构也叫 Elman Network,也有跨层的 Jordan Network。据说 Jordan Network 性能更好些。

Bidirectional RNN

png

​ 可以将序列反向再训练一遍,称之为 Bidirectional RNN。

Long Short-term Memory (LSTM)

png

LSTM 是一种特殊的神经网络结构,拥有 4 个输入,1 个输出。

png

输入:

  • 通常的输入 zz
  • 由信号控制的 Input Gate,输入信号 ziz_i
  • 由信号控制的 Forget Gate,输入信号 zfz_f
  • 由信号控制的 Output Gate,输入信号 zoz_o

输入和门都会有一个激活函数(一般是 Sigmoid,便于将值取 0-1 之间,ReLU 在此性能较差)

经过 Forget Gate 后的值 c=g(z)f(zi)+cf(zf)c'=g(z)f(z_i)+cf(z_f),因此 Forget Gate 中的 cc 取 1 时 Memory 不遗忘,取 0 时 Memory 遗忘。

最后的输出值 a=h(c)f(zo)a=h(c')f(z_o)

png

​ 举例,假设这个模型真实的情景是:

  • x2=1x_2=1 时,把 x1x_1 的值加到 memory 中。
  • x2=1x_2=-1 时,重置 memory 的值(设为 0)。
  • x3=1x_3=1 时,将 memory 的值作为输出值。
png

​ 使用一个 LSTM 神经元可以拟合出这样的函数(假设 w 值已经被训练好)。

png

​ 因此 LSTM 的参数量是普通神经元的 4 倍。

png

​ 把输入向量 xtx^t 拆分成 4 个向量 zf,zi,z,zcz^f,z^i,z,z^c 看。

png

​ 向量在 LSTM 中的示意图。

png

​ LSTM 神经元可以有很多个。

png

​ 还可以把 memory 中的值 ct1c^{t-1}

​ 上次的输出值 ht1h^{t-1}(称之为“peephole”)放到输入序列中。

png

​ 多层,多个的 LSTM。

png

​ Keras 可以很好地实现它。

​ 一般来说 RNN 就是指 LSTM。

​ Keras 支持 LSTM,GRU(比 LSTM 少一个门,据说性能与 LSTM 相当,而较少的参数量可以防止过拟合?),以及课程开始讲的最传统的 SimpleRNN。

ML Lecture 21-2 Recurrent Neural Network -Part II-

png

​ 如上,对于一个 slot-filling 问题,我们希望网络能帮我们辨识出 arrive 对应的 other,Taipei 对应 dest(目的地)…则我们需要按时间顺序,输入这句话的这些单词,并且期望其输出为 yy 上面的对象。

png

​ LSTM 同样使用梯度下降训练,其反向传播方法,是考虑了时间的,称为 Backpropagation through time (BRTT)。

png

​ RNN 很难训练,其 Loss 变化曲线可能不像通常那样随时间单调递减。

png

​ Razvan Pascanu (ICML’13) 的研究,RNN 的参数对应的损失函数是很陡峭的,因此难以训练。提出解决方案:引入 Clipping——当 gradient 大于某个数值时,就等于某个数值。

png

​ RNN 在不同时间内反复使用同样的东西,导致梯度爆炸(如 ww 都取 1.011.01 时,第 10001000 层的输出极大)或梯度消失(如 ww 都取 1.011.01 时,第 10001000 层的输出约等于 00)。

png

​ LSTM 可以解决梯度消失的问题,但是难以解决梯度爆炸的问题。

  • Memory and input are added
  • The influence never disappears unless forget gate is closed

​ GRU 是更简单版本的 LSTM:

  • 相比于 LSTM,少了一个门(参数)
  • 当 input gate 打开时,forget gate 就自动关闭
png

​ 其他 LSTM 的变形:Clockwise RNNStructurally Constrained Recurrent Network(SCRN)

  • Vanilla RNN Initialized with Identity matrix + ReLU activation function [Quoc V. Le, arXiv’15]

  • Outperform or be comparable with LSTM in 4 different tasks 在 4 项不同的任务中表现优于或与 LSTM 相当

png

​ 之前提到的 Input 和 Output 都是有着相同长度的序列,RNN 可以做到不止这些。

Many to one

png
  • 输入是一个向量序列,但是输出只有一个向量。

如 Sentiment Analysis 情感分析:从一段文本中判断这段文本的积极度。

png

​ Key Term Extraction 关键词提取:将序列按照顺序在不同时间点输入,最后一个时间点把输出拿出来,经过些处理,得到结果。

Many to Many (Output is shorter)

png

​ 语音辨识中,RNN 解决了一般分类网络中没法解决的问题。在一段发音好棒棒中,正常的网络可能识别出好好好棒棒棒棒棒,然后可以通过Trimming去重得到输出好棒,但是这样就无法识别好棒棒

png

​ 如上,Connectionist Temporal Classification(CTC)提出了一个解决方案,在输出中增加空字符 ϕ\phi

png

​ 此法需要穷举正确的答案(好 ϕ\phiϕ\phi ϕ\phi ϕ\phi,好 ϕ\phi ϕ\phiϕ\phi ϕ\phi,好 ϕ\phi ϕ\phi ϕ\phiϕ\phi)。穷举可能会有一定成本,但是 CTC 中有一定巧妙解决方案。

png

​ Google 现在的语音辨识系统已经更改为CTC为基础的算法。

Many to Many (No Limitation)

png

​ Seq2Seq,举例:机器翻译。其基本思路如上。但是问题是不知道何时停止联想。

png png

​ 引出,其思路也有点类似 CTC,在训练中,添加一种输出,叫做===,代表“断”。

png

Beyond Sequence

png
  • Syntactic parsing 句法分析

​ 我们将树状图描述成一个序列,作为目标值。

Sequence-to-sequence Auto-encoder-Text

png

​ 序列中的顺序很重要,”white blood cells destroying an infection“ 和 ”an infection destroying white blood cells“ 具有相同的 ”bag-of word“,但具有不同的意思。

png

​ 输入原句,Encoder 输出嵌入后的向量(Embedding Vector),再将嵌入向量输入解码器 Decode,争取让解码器输出原句,则编码成功。

​ 这样,我们不需要对数据进行打标签,只需要大量文章就可以训练。

png

​ 这个结构可以是多层 hierarchical 的,如上是 4 层的 LSTM 组合。

png png png png png png png

Attenttion-based Model

类似人脑,机器也有一个用于记忆的缓存区,可以在使用神经网络时,进行读和写的操作。

这个叫做Neural Turing Machine

png png png png png png png png png png png png png

RNN v.s. Structured Learning

png

​ RNN,LSTM 与结构化机器学习(隐马尔可夫模型 HMM,条件随机场,结构化感知器/SVM)的比较:

RNN,LSTMStructured Learning
单向的 RNN 不考虑整个序列使用 Viterbi,所以考虑整个序列:Bidirectional RNN` 也可考虑整个序列
Cost 和 error 并不总是相关的可以明确地考虑标签的依赖性:Cost 是 error 的上界
可以深度学习难以深度学习
png

​ 可以将 RNN、LSTM 与 Structured Learning 结合在一起。

  • input 的 feature 先通过 RNN 与 LSTM;
  • 其输出作为 HMM 等的输入;
  • 二者可以一起 Learn 的,可以一起梯度下降。
png png png png png

常见的结合应用如下:

  • Speech Recognition: CNN/LSTM/DNN + HMM
  • Semantic Tagging: Bi-directional LSTM + CRF/Structured SVM

​ 李老师认为,其实 structure learning 并不过时,GAN 就是一种 structure learning (Energy-based model)。

png

​ 李老师认为:Deep and structure is future. 下学期会开有关的课程 Machine learning and having itdeep and structured (MLDS)。

png

-TA 補充課- Graph Neural Network -12- -由助教姜成翰同學講授-

Outline

  • Introduction
  • Roadmap
  • Tasks, Dataset, and Benchmark
  • Spatial-based GNN
  • Graph Signal Processing and Spectral-based GNN
  • Graph Generation
  • GNN for NLP
png png png png png

图的举例:

  • 蛋白质结构图
  • 地铁路线
  • 分子式
  • 红黑树
png png

​ 分析化学式生成对治疗新冠有效的物质。

png png

​ 分类器:根据社交圈判断谁是凶手。

png

​ GNN 简单来说就是 Graph + Nerual Networks,关键问题就是将图的结构和图中每个节点和边的特征转化为一般的神经网络的输入(张量)。

可以做的事情主要包括:分类和生成

  • How do we utilize 利用 the structures and relationship to help our model? 关系杂
  • What if the graph is larger, like 20k nodes? 模型大
  • What if we don't have the all the labels? 无标签
png
  • 半监督学习:Unlabeled Node > Labeled Node
  • 思想是 A node can learn the structure from its neighbors(近朱者赤,近墨者黑), but how?
png
  • 模仿卷积的过程,卷积中和 filter 相乘相加后就得到 feature map。如何把卷积操作移植到 Graph 上?
    • Solution 1: Generalize the concept of convolution (corelation) to graph >> Spatial-based convolution 基于空间的卷积
      • 把 CNN 的操作 Generalize 到 GNN 上
    • Solution 2: Back to the definition of convolution in signal processing >> Spectral-based convolution 基于频域的卷积
      • 借鉴信号处理中做法来进行卷积操作(先将信号从时域转到频域)
png

GNN Roadmap

  • Theoretical analysis: GIN, GCN
    • 偏理论分析的模型:图同构网络 GIN(基于空间),GCN(基于谱图)
  • Spatial-based convolution 基于空间的卷积
AggregationMethod
SumNN4G
MeanDCNN, DGC, GraphSAGE
Weighted sumMoNET, GAT, GIN
LSTMGraphSAGE
MaxPoolingGraphSAGE
  • Spectral-based convolution 基于频域的卷积
    • ChebNet - GCN - HyperGCN

​ GAT 和 GCN 较为常用。

  • Tasks 任务(将这些模型用于?)
    • Semi-supervised node classification
    • Regression
    • Graph classification
    • Graph representation learning
    • Link prediction
  • Common dataset 公有数据集
    • CORA: citation network. 2.7k nodes and 5.4k links
    • TU-MUTAG: 188molecules with 18 nodes on average

​ 主要用在 NLP 问题上。

png

Spatial-based Convolution

png

Terminology:术语

  • Aggregate:用 neighbor feature update 下一层(Layer i + 1)的 hidden state

  • Readout:把所有 nodes 的 feature 集合起来代表整个 graph(类似 LSTM 把整个句子向量压缩为一个向量)

NN4G

png

hnodelayerh^{layer}_{node}:第 layer 层 第 node 个节点。

h31=w^1,0(h00+h20+h40)+wˉ1x3h^1_3=\hat w_{1,0}\left(h^0_0+h^0_2+h^0_4\right)+\bar w_1\cdot x_3

​ Input layer 经过 embedding(如 h30=wˉ0x3h^0_3=\bar w_0\cdot x_3)之后到 Hidden layer 0。将其相邻的节点 (h00+h20+h40h^0_0+h^0_2+h^0_4) 相加然后乘以权重(w^1,0\hat w_{1,0})再加上之前 Input layer 的原始输入 (w^1x3\hat w_1\cdot x_3) 用于得到新的参数 (h31h^1_3)。

​ 关于为什么要相加的问题:如果不用相加的话,你就很难去处理节点间邻居数量不同这个巨大的区别。另外,相加是最简单也是被证实最有效的利用邻点信息的方法。

png

​ 整个图的表示是通过求出每一层整个图中的顶点间的特征均值,然后各自乘以相应的权重再把每一层得到的结果相加得到整个 graph 的 feature yy

DCNN

png

每一层的更新方式:

​ 如第一层,更新某个节点首先找到与它距离为 1 的节点(也就是邻居节点, d(3,)=1d(3,\cdot)=1),然后用原始的输入相加取平均值 (MEAN()MEAN()) 再乘以权重 (w30w^0_3)。h30=w30MEAN(d(3,))=1h^0_3=w^0_3MEAN(d(3,\cdot))=1

​ 第二层,更新更新某个节点首先找到与它距离为 2 的节点(这样也包括了它自自己本身),然后用原始的输入相加取平均值再乘以权重。h31=w31MEAN(d(3,))=2h^1_3=w^1_3MEAN(d(3,\cdot))=2

png

​ 这样就可以将每一层的节点特征组成一个矩阵,然后叠在一起。

​ 将某个节点的 {h10,h11,...h1k}\{h^0_1,h^1_1,...h^k_1\} 乘上某个权重 WW,得到特征 y1y_1

DGC

png

​ 与 DCNN 中 Readout 过程不同,将 H0,H1,...HKH^0,H^1,...H^K 加起来。

MoNET

png

​ 上面两个方法在处理节点和节点之间的关系的时候都是用加法,其实忽略节点之间如果边有权重,这样是不合理的,因此这个方法就是用来解决不同权重边的方法。

​ 引入权重 u\mathbf u 定义某个节点与某个节点之间的距离。

u(x,y)=(1deg(x),1deg(y))T\mathbf{u}(x,y)=\left(\frac{1}{\sqrt{deg(x)}},\frac{1}{\sqrt{deg(y)}}\right)^T

​ 其中的 deg 表示的是节点的度。无向图当中也就是说有几个和它相连接的节点。这里定义的距离公式可以有不同的。也就是给每个节点不同的权重 weighted sum。

h31=w(u^3,0)×h00+=w(u^3,2)×h20×h40h^1_3=w(\hat u_{3,0})\times h^0_0+=w(\hat u_{3,2})\times h^0_2\times h^0_4

ww 由神经网络得到,u^\hat uu\mathbf u 变换而来。

GraphSAGE

png
  • SAmple and aggreGatE
  • Can work on both transductive and inductive setting
  • GraphSAGE learns how to embed node features from neighbors
png

​ 这个方法在提取邻居信息上提出了三种方式:AGGREGATION: mean, max-pooling(对邻居的 feature 作 max-pooling), or LSTM

png

GAT

png png png

GIN

png

​ 这个文章提供了证明什么方法是 work 的,什么方法是无用的。

​ 要用 sum,不要用 mean 或 max。

png png

-TA 補充課- Graph Neural Network -22- -由助教姜成翰同學講授-

png

​ 推荐的一个网站。

看不懂,寄!

ChebNet

GCN

Benchmark tasks

png

​ 一些基准测试:

图分类:对数据集 MNIST 和 CIFAR10 进行超分辨率处理。

png png

​ 边分类:旅行家问题

png png png png png png png

Graph Generation

  • VAE-based model: Generate a whole graph in one step
  • GAN-based model: Generate a whole graph in one step
  • Auto-regressive-based model: Generate a node or an edge in one step

VAE-based model

png

GAN-based model

png

AR-based model

png

Summary and Take Home Notes

png
  • GAT and GCN are the most popular GNNs
  • Although GCN is mathematically driven, we tend to ignore its math
  • GNN (or GCN) suffers from information lose while getting deeper
  • Many deep learning models can be slightly modified and designed to fit graph data, such as Deep Graph InfoMax, Graph Transformer, GraphBert(效果不好).
  • Theoretical analysis must be dealt with in the future
  • GNN can be applied to a variety of tasks